Histoire des premiers écrans aux écrans tactiles et leurs résolutions

(source : http://www.histoire-cigref.org/blog/histoire-des-premiers-ecrans-aux-ecrans-tactiles)

Préambule

Un écran,  cet objet présent partout et sous bien des formes différentes, de la télévision aux tablettes numériques en passant par les ordinateurs et les smartphones !  Périphériques de sortie vidéo d’un ordinateur, ou son ainé : l’écran de télévision, et maintenant tactile, obéissant au doigt et à l’œil…  remontons à leur source cathodique !

I- La résolution des écrans

La résolution des écrans s’exprime en nombre de Pixels.
C'est le nombre de pixels en largeur et en hauteur.
Exemple: 1600 x 900 signifie qu'il y a 1600 pixels en largeur par 900 pixels en hauteur.
Plus il y a de pixels, meilleure est la résolution

EVOLUTION DES RESOLUTIONS D'ECRANS

©Morgane Morizur

HISTORIQUE DES RESOLUTIONS D'ECRAN

1944 : René Barthélemy met au point la définition de la télévision à 819 lignes. Pendant les années d'occupation, Barthélemy a atteint 1 015 et même 1 042 lignes.

20 novembre 1948 : le standard d'émission en 819 lignes est adopté à la suite du décret Mitterrand : image positive et modulation d'amplitude, les émissions commencent dans cette définition à la fin de 1949.

La France envisageait à l'époque de ne diffuser qu'une seule chaîne sur le réseau VHF et l'immense bande passante (14 MHz) nécessaire aux 819 lignes était suffisante. L'Angleterre qui pensait déjà à avoir deux chaînes est restée sur le 405 lignes (4 MHz). L'immense majorité des autres pays européens ont adopté le 625 lignes (7 MHz) (le PAL) version 50 Hz européanisé du 525 lignes 60 Hz américain.

Initialement, le SÉCAM de l'ingénieur Henri de France avait été conçu pour coloriser les 819 lignes, mais la bande passante nécessaire étant considérable (14 MHz), il a choisi le 625 lignes (8 MHz) pour la seconde chaîne, et c'est elle qui sera la première à être colorisée. Une des justifications de l'émission en 625 lignes, c'est la possibilité d'être compatible avec les voisins européens. Cette compatibilité est abandonnée au moment du lancement de la couleur, en choisissant le SÉCAM au détriment du PAL1. Toutefois, la norme 819 lignes aura été exploitée jusqu'en 1984, par la première chaîne historique ORTF devenue TF1, et même jusqu'en 1985, dans le sud de la France, par TMC.

La norme CCIR 625 lignes a permis de coloriser la télévision européenne à moindre coût, à partir de 1965 (1967 en France). Dès lors, cette définition de 625 lignes est devenue la « définition standard » (ou SD) associée aux standards SÉCAM et PAL, la définition alternative étant le 525 lignes, principalement associée au standard couleurs NTSC.

Apparue dès la fin des années 1980 au Japon avec la norme analogique MUSE, la télévision HD a été exploitée au début des années 1990, toujours en analogique, par la norme européenne HD Mac au format image 16/9 et 1 250 lignes. Ces deux normes TVHD ont dû être exploitées exclusivement par satellite du fait de la grandeur de bande passante nécessaire aux signaux. À la même époque, plusieurs marques, dont Pioneer, Sony et Panasonic, mettent sur le marché japonais des lecteurs LaserDisc « Hi Vision ». Dans la foulée, une centaine de programmes seront commercialisés, dont 34 films ; les meilleurs résultats sont toutefois atteints par les documentaires directement filmés avec des caméras à haute définition, puis traités numériquement pour être adaptés à la norme MUSE. À la même époque, plusieurs magnétoscopes W-VHS sont également commercialisés par JVC. Avec l'arrivée des normes numériques européennes, puis internationales Digital Video Broadcasting et MPEG, les premières expérimentations de télédiffusion HD numérique par satellite sont réalisées en Europe, à partir de 1996. La norme DVB exploitant les formats MPEG-2 est commercialement lancée par plusieurs ensembles de chaînes à péage par satellite, à partir de 1996. Avec l'introduction de la télévision numérique terrestre, à la fin des années 2000, au Japon, aux États-Unis puis en Europe, le format MPEG-4, grâce à de meilleures performances que le MPEG-2, a permis que la HD soit captée via une antenne TV de type « râteau ».

 

II- NAISSANCE DES PREMIERS ECRANS

Dès 1880, ce sont plusieurs chercheurs : Constantin Senlecq en France, Adriano de Paiva à Porto, George R. Carey à Boston, qui, à peu près dans le même temps, découvrent que l’on pourrait diffuser une image en la projetant sur une surface photosensible composée de points de sélénium du fait des propriétés photoélectriques de ce matériau. Ce principe sera la base de tout système de transmission d’images animées.

En 1884, Paul Nipkow, ingénieur allemand, invente « le disque de Nipkow », dispositif à base de disque en mouvement, précurseur de la télévision mécanique. De son côté, Hertz découvre en 1886 la photoélectricité : une plaque de métal soumise à une lumière émet des électrons. L’ensemble de ces découvertes concourent à la naissance des écrans devant lesquels nous passons de plus en plus de temps chaque jour !

 

LE TUBE CATHODIQUE

           (face©Morgane Morizur avant)

Entre temps, en 1892, Karl Ferdinand Braun invente le tube cathodique, ou CRT pour Cathode Ray Tube. Le premier écran à tube cathodique fonctionnait à partir d’une diode à cathode froide. La cathode, qui donne son nom au tube cathodique, est la source de production des électrons, c’est-à-dire une électrode métallique chargée négativement, d’une ou plusieurs anodes. Le premier tube utilisant une cathode chaude revient à J. B. Johnson et H. W. Weinhart. Il sera commercialisé à partir de 1922 par la société Western Electric.

Le tube cathodique se compose d’un filament chauffé, de cathodes et d’anodes soumises à une différence de tension. C’est cette différence de tension qui crée un fort champ électrique capable d’arracher les électrons de la cathode et de les projeter à très grande vitesse (comme un canon !) vers l’écran, sous la forme d’un faisceau extrêmement fin. Un vide d’air occupe l’espace entre le « canon à électrons » et l’écran pour que rien ne freine leur trajectoire. C’est un champ magnétique qui est chargé de dévier les électrons de gauche à droite et de bas en haut vers l’écran. Autrement dit, deux déflecteurs, bobines X et Y mises sous tension, dévient le flux horizontalement et verticalement. C’est ce balayage qui se fait de gauche à droite puis vers le bas une fois arrivé en bout de ligne, qui fait croire à l’œil humain que seuls certains points éclairent l’écran pour afficher l’image.

A l’origine, les moniteurs d’ordinateurs sont des tubes cathodiques. Ils le sont restés pour la plupart des ordinateurs jusqu’aux années 2000. Pour autant, il faut se souvenir que même si les tubes cathodiques existaient déjà, les  tout premiers ordinateurs n’étaient pas pourvus d’écrans ! Il faudra attendre 1976, à l’initiative de Steve Jobs la sortie de « l’Apple I », qui fut le premier ordinateur que l’on pouvait équiper d’un clavier et d’un écran… « ce qui le distinguait des machines de l’époque programmées pour fonctionner avec des interrupteurs et des lumières clignotantes pour l’affichage ».

 

L'ECRAN PLASMA

   ©Morgane Morizur

Bien que les écrans cathodiques aient survécu jusque vers les années 2000, la technologie de l’écran plasma est apparue dès 1964. Pour fonctionner, l’écran plasma a besoin d’un courant électrique qui illumine un mélange de gaz constitué à 90% d’argon et 10% de xénon. Ces gaz sont inoffensifs. Le courant électrique les transforme en plasma. La lumière ainsi produite est ultraviolette, invisible pour l’humain. Des luminophores rouges, verts et bleus répartis sur les cellules de l’écran, la convertissent en lumière colorée visible sous forme de pixels.

Le principe du plasma permet de réaliser des écrans de grande dimension, et surtout ayant besoin de très peu de profondeur, à peine quelques centimètres, contrairement aux tubes cathodiques. De plus, il offre de très bonnes valeurs de contrastes y compris sous un angle de 160 degrés et génèrent un large spectre de couleurs.

On doit cette technologie à deux professeurs de l’université de l’Illinois, Donald L. Bitzer et H. Gene Slottow qui souhaitaient développer une formule d’enseignement assistée par ordinateur. Leur écran plasma était monochrome. Si l’écran plasma n’était pas à l’époque en mesure de rivaliser avec les tubes cathodiques bien implantés sur le marché des écrans, sa grande taille lui permet par contre de trouver place dans les grands espaces : gares, salles de Bourse et certains milieux industriels.

En 1992, Fujitsu reprend les travaux de Donald L. Bitzer et présente le premier écran plasma couleur. Il sera mis sur le marché en 1997 sous la marque Pioneer. Un effort est fait sur la qualité de l’image pour supprimer les temps de latence dans l’affichage et optimiser l’intensité des contrastes. La technologie de l’écran plasma est particulièrement minutieuse, elle s’apparente à la microélectronique, ce qui explique son prix et une implantation quelque peu élitiste.

 

L'ECRAN A CRISTAUX LIQUIDE

©Morgane Morizur

C’est en 1964 que George Harry Heilmeier, ingénieur et homme d’affaires américain, en découvrant dans les cristaux liquides de nouvelles propriétés électro-optiques, invente l’affichage à cristaux liquides. Il faudra plusieurs années pour produire des écrans à cristaux liquides stables. L’écran à cristaux liquides utilise la polarisation de la lumière via des filtres polarisants et par la biréfringence* de certains cristaux liquides. L’écran LCD en tant que tel n’émet pas de lumière, il doit la recevoir.

Ces premiers affichages, LCD en anglais, ont été présentés en 1971. En 1984, Thomson développe dans son laboratoire le premier écran à cristaux liquides en couleur. Il faudra attendre de nouveau quelques années pour que cette technologie s’implante. En effet, c’est dans les années 90 que l’on commencera à voir équiper des téléphones portables, des ordinateurs, des téléviseurs, mais aussi des ordinateurs de bord dans les avions… mais avec des écrans LCD noir et blanc. Les écrans couleurs arriveront sur ces marchés dans les années 2000.

 

L'ECRAN TACTILE

         ©Morgane Morizur

Contrairement à ce que l’on pourrait imaginer en utilisant aujourd’hui nos tablettes numériques, le premier écran tactile n’est pas le fruit d’une invention récente… il a 40 ans ! Il a été inventé en 1972.

Le premier écran tactile a été conçu à l’origine au sein de l’Université de l’Illinois comme système d’éducation assistée par ordinateur. IBM présente donc en 1972 le « PLATO IV », ordinateur équipé d’un dispositif optique de reconnaissance du toucher de l’écran. Des leds infrarouges réparties autour de l’écran permettent de détecter la présence du doigt. Les étudiants peuvent ainsi faire des exercices en touchant l’écran du doigt pour indiquer la bonne réponse.

©Morgane Morizur

Ce premier écran tactile est encore loin des écrans de smartphones et tablettes numériques actuels ! Il s’agit en effet d’un écran plasma orange mono point, c’est-à-dire sensible à une seule pression à la fois. Un système multipoints sera développé douze ans plus tard, en 1984 par les laboratoires Bell. Ce sera un écran CRT recouvert d’une surface tactile capacitive, capable de suivre plusieurs doigts.

Qu’est-ce qu’un écran tactile ?

Comme tout écran informatique, l’écran tactile est un périphérique. Il se distingue en cumulant les fonctions d’affichage d’un écran traditionnel et le pointage de la souris informatique. Pour répondre à cette double mission plusieurs technologies seront développées, notamment en fonction des usages : résistive, capacitive, infrarouge.

Dans la technologie dite « résistive », la plus économique, l’écran est constitué de plusieurs couches : deux plaques, l’une en plastique, l’autre en verre, toutes deux conductrices, séparées par une couche d’isolant. Elles sont encadrées par des barres horizontales et verticales. L’ensemble est recouvert par un produit permettant d’augmenter la dureté et la résistance de la surface de l’écran. En touchant l’écran les deux films conducteurs se mettent en contact ce qui génère un champ électrique. Les barres horizontales et verticales mesurent cette tension pour distinguer le point de contact. L’information ainsi recueillie est interprétée par le logiciel afin d’exécuter la demande de l’utilisateur.

Aujourd’hui, cette technologie a tendance à céder la place à la technologie « capacitive », plus résistante dans le temps et plus agréable pour l’utilisateur, notamment sur le plan de la luminosité de l’écran. La plaque de verre du moniteur est recouverte d’une substance qui accumule les charges. La pression du doigt absorbe le courant de fuite de la dalle de verre, ce qui crée un manque mesurable. Chaque angle de la plaque est muni d’un capteur qui situe précisément le point touché. Smartphones et tablettes tactiles utilisent cette technologie. Dans les lieux publics par exemple, les bornes tactiles utilisent la technologie capacitive dite « projetée », où il n’est plus nécessaire de toucher la plaque de verre pour créer le manque de charge. Celle-ci peut être recouverte d’un écran blindé lui assurant une forte résistance.

Une troisième technologie, celle des dalles tactiles à infrarouge, très résistante, n’est pas un véritable écran. C’est un cadre équipé d’émetteurs et de récepteurs infrarouges. La dalle de verre n’a pas de fonction tactile. Le point d’impact, lorsque l’on touche la dalle, interrompt les faisceaux lumineux générés par les émetteurs-récepteurs infrarouges du cadre. Ce point est ainsi localisé et transmis avant même que le doigt n’ait physiquement touché la dalle.

©Morgane Morizur

 

III- L'INTERET D'AUGMENTER LES RESOLUTION

Plus la résolution augmente, plus l'image est grande, plus elle contient de pixels et plus elle est nette et les détails précis.

©Morgane Morizur

©Morgane Morizur

Aujourd'hui, la résolution 4K arrive, ce qui a pour effet de demander plus de bande passante pour pouvoir afficher l'image.

Le développement de la fibre optique va contribuer à sa généralisation dans le futur.

Sur les chaînes hertziennes numériques de la TNT en 2018, très très peu de programme sont en 4K.

 

 

RETOUR